同态加密(HE)是隐私机器学习(PPML)中的核心建筑块,但他也被广泛称为其效率瓶颈。因此,已经提出了许多GPU加速的加密方案来提高HE的性能。但是,这些方法通常需要针对特定算法量身定制的复合修改,并与特定的GPU和操作系统紧密耦合。询问如何通常提供更实用的GPU加速算法的信息很有趣。鉴于大语言模型(LLMS)的强大代码通用功能,我们旨在探索它们的潜力,即使用CPU友好型代码自动生成实用的GPU友好算法代码。在本文中,我们关注数字理论转移(NTT) - HE的核心机制。我们首先开发并优化了对GPU友好的NTT(GNTT)家族,该家族利用了Pytorch的快速计算和预录,并实现了大约62倍的加速,这是一个大约62倍的加速,这是一个明显的增长。然后,我们使用各种LLM,包括DeepSeek-R1,Ope-Nai O1和O3-Mini探索GPU友好的代码生成。在整个过程中,我们发现了许多涉及的发现。例如,有些令人惊讶的是,我们的经验表明,DeepSeek-R1的表现明显优于OpenAi O3-Mini和O1,但仍然无法击败我们优化的协议。这些发现为ppml的PPML提供了宝贵的见解,并增强了LLMS的代码生成能力。代码可在以下网址提供:https://github.com/lmpc-lab/ gengpucrypto。
主要关键词
![arxiv:2502.11110V1 [CS.CR] 2025年2月16日PDF文件第1页](/bimg/a/ad0d35f00946908ebb6c8ff788872a869ede85ca.webp)
![arxiv:2502.11110V1 [CS.CR] 2025年2月16日PDF文件第2页](/bimg/2/20cb39c98aeb81561d205e8cced47d89bb0356a9.webp)
![arxiv:2502.11110V1 [CS.CR] 2025年2月16日PDF文件第3页](/bimg/0/0bc8fb3ef05aa968acec50c5a02f8e33f8815ebc.webp)
![arxiv:2502.11110V1 [CS.CR] 2025年2月16日PDF文件第4页](/bimg/b/b3b6dacca419ba8de459827d98ab5f7cfe4bc6d4.webp)
![arxiv:2502.11110V1 [CS.CR] 2025年2月16日PDF文件第5页](/bimg/0/045c3d4cf2e34718b150cc921cd12cd6cb718da7.webp)
